Es la IA la que “jaquea” a la sociedad o son las personas detrás de las IA las responsables

Los especialistas participantes en el Foro “ConciancIA Digital, Inteligencia Artificial y Privacidad”, dejaron en el aire la pregunta sobre ¿de quién es la responsabilidad de “jaquear” el derecho y a la misma sociedad, de las IA o de quienes están detrás de ellas?.

Reunidos en el Tecnológico de Monterrey campus Ciudad de México, los especialistas convocados por el Instituto de Transparencia, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México (INFOCM), destacaron la situación actual que vive la Inteligencia Artificial y quienes la desarrollan, porque el uso de la tecnología puede ser peligroso, pero la realidad es quem eso existe porque hay alguien que da una orden previamente.

Miriam Rojas Piña, Subdirectora de Proyección Estratégica del INFOCM fue la encargada de presentar el evento y dar la bienvenida a ponentes y asistentes al Foro en donde se tocaron temas que fueron desde la normatividad, ética y producción de la Inteligencia Articicial.

La primera en subir al escenario para hablar de la parte legal o del derecho en el uso de la Inteligencia Artificial fue Leticia Stephanie Enríquez Valerio, Fundadora de Women In Legal Innovation.org y líder de LegalTech y Tech Law en una Big Four, quién puso el dedo en la llaga al cuestionar sobre la aplicación del derecho en materia de Inteligancia Artificial.

Fue ahí, en la primera intervención en donde quedó en el aire la pregunta que resulta más o menos similar a la de “quien fue primero, el huevo o la gallina”, pues dejó el cuestionamiento en el sentido de ¿quien tiene la culpa de “jaquear” el derecho y a la sociedad misma, la IA o quienes están detrás de ella?.

De ahí partió a señalar que los problemas de la IA son los mismos problemas que ha tenido al humanidad, el problema no es lo artificial, sino irle quitando lo humano a la IA que promete muchas cosas, pero los humanos estamos contagiando un poco con nuestros propios pensamientos.

Pero, es la IA la que decide ser discriminatoria, o es el ser humano el que traslada sus ideas, filias o fobias a la IA que está programando.

Es por ello que la experta destacó que hay retos a nivel jurídico, como enfrentarlos, pareciera imposible, pero estos retos que plantean la tecnología y la IA, ya se podrían normar con lo que tenemos como las leyes existentes, aunque sigue fallando el modelo en que construimos la tecnología como personas.

Ahí entra la cuestión económica, dijo, porque el modelo de negocios de las grandes empresas tecnológicas es la venta de los datos personales, es una agenda económica detrás de las IA.

Las empresas quieren usar toda la información para alimentar una IA y otras llegaron a meterle dudas y preocupaciones a todo el mundo, aunque fue un modelo muy exitoso porque no respetan propiedad intelectual ni otras normas que ya existían pero no se respetaron.

La Innovación, recalcó la también abogada, no respeta normas porque de otra forma no habría avances, “Hoy las normas son el problema porque a pesar de que se les demande a las BigTec, ellas ya pusieron la información abierta a todo el mundo”.

El asunto se encuentra en definir para que queremos usar la IA, ¿para que nos ayude, en tareas comunes?, pero la humanidad y los individuos no sabemos para donde ir, este monopolio ya debería ser cuestionado a nivel global y es por eso que de ahí aparece la disyuntiva de “si es la IA la que jaquea el derecho o la humanidad decide sobre que hacer con las normas al programar las IA”.

Este jaqueo que le hemos hecho a las normas impacta en la construcción del mundo tecnológico porque los seres humanos no tenemos mucho interés en hacer real la protección de nuestros datos personales, dijo.

Solo hay preocupación activa de los que norman el uso de las IA, por afectar a algún ente electoral o gubernamental, por ejemplo, pero el propio Gobierno no ha planteado poner límites, pero ha planteado usarla para vigilar a la ciudadanía.

Y queda pendiente la respuesta a cuestionamientos tales como ¿si la tecnología ha servido para combatir el cambio climático, para combatir la desigualdad, para tener un mejor sistema de justicia o para evitar un genocidio?

El problema podría definirse como que “no sabemos que queremos hacer con la IA, no sabemos si la necesitamos para mejorar como humanidad o usarla para trasladar nuestras filias, odios y fobias”.

Es por eso que la propuesta se presenta como un cambio de criterio para que las personas jaqueen los códigos ya existentes, porque los problemas de la tecnología siguen siendo problemas humanos.

Enriquez Valerio destaco que la dirección la deben imponer las grandes empresas que usan como negocio la IA, pero los gobiernos la deben usar o son los seres humanos quienes debemos usarla para mejorar, que tipo de seres humanos usen, desarrollen y presenten esta tecnología es la duda.

Hasta aquí dejaremos esta primera entrega sobre el Foro organizado por el INFOCM que preside Arístides Rodrigo Guerrero García que fue uno de los ponentes y que manifestó su entusiasmo por el uso de esta tecnología para mantener la información y la transparencia al alcance de las manos de los ciudadanos.